🧠 16 июня все самое важное в мире технологий ищите в Санкт-Петербурге!
В ТехноХабе Сбера состоится большая сессия в рамках серии мероприятий международной конференции AI Journey.
Именно здесь соберутся лидеры AI-индустрии из разных стран, чтобы обсудить реальные кейсы внедрения AI, архитектуры нового поколения, крутой апгрейд нейронки GigaChat, самое свежее в исследованиях GenAI и то, что уже завтра станет новым стандартом!
📌 Подключайтесь к трансляции (https://aij.ru/lections?utm_source=telegram&utm_medium=fix&utm_campaign=aij_regional_lections_seeding_2025_post&utm_term=pythonl&erid=2Vtzquqn1dY), чтобы не отставать от будущего.
@Python_Community_ru
В ТехноХабе Сбера состоится большая сессия в рамках серии мероприятий международной конференции AI Journey.
Именно здесь соберутся лидеры AI-индустрии из разных стран, чтобы обсудить реальные кейсы внедрения AI, архитектуры нового поколения, крутой апгрейд нейронки GigaChat, самое свежее в исследованиях GenAI и то, что уже завтра станет новым стандартом!
📌 Подключайтесь к трансляции (https://aij.ru/lections?utm_source=telegram&utm_medium=fix&utm_campaign=aij_regional_lections_seeding_2025_post&utm_term=pythonl&erid=2Vtzquqn1dY), чтобы не отставать от будущего.
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Self Forcing: генерация видео в реальном времени с RTX 4090
Новая техника Self Forcing позволяет обучать видеодиффузионные модели "думать как на инференсе" ещё во время обучения.
🧠 Что делает:
▪️ Имитирует autoregressive-инференс с KV-кэшированием прямо во время обучения
▪️ Устраняет расхождение train/test distributions
▪️ Достигает качества SOTA-моделей, но с реальным временем генерации
▪️ Работает даже на одной RTX 4090
⚙️ Требования:
• GPU с 24 GB+ памяти (4090 / A100 / H100 протестированы)
• Linux
• 64 GB RAM
• Другие конфигурации могут работать, но не проверялись
📌 Выход: стриминговое видео — кадр за кадром, без задержек, на одном потребительском GPU.
💡 Self Forcing — шаг к видеогенерации без лага и мегакластеров.
📦 Основан нп Wan 2.1
💻 Требования: минимум 24 ГБ VRAM и 64 ГБ RAM
🧪 Код открыт, всё работает (пока) только под Linux
Github (https://github.com/assetnote/newtowner)
@Python_Community_ru
Новая техника Self Forcing позволяет обучать видеодиффузионные модели "думать как на инференсе" ещё во время обучения.
🧠 Что делает:
▪️ Имитирует autoregressive-инференс с KV-кэшированием прямо во время обучения
▪️ Устраняет расхождение train/test distributions
▪️ Достигает качества SOTA-моделей, но с реальным временем генерации
▪️ Работает даже на одной RTX 4090
⚙️ Требования:
• GPU с 24 GB+ памяти (4090 / A100 / H100 протестированы)
• Linux
• 64 GB RAM
• Другие конфигурации могут работать, но не проверялись
📌 Выход: стриминговое видео — кадр за кадром, без задержек, на одном потребительском GPU.
💡 Self Forcing — шаг к видеогенерации без лага и мегакластеров.
📦 Основан нп Wan 2.1
💻 Требования: минимум 24 ГБ VRAM и 64 ГБ RAM
🧪 Код открыт, всё работает (пока) только под Linux
Github (https://github.com/assetnote/newtowner)
@Python_Community_ru
🖥 Two Claps Open — инструмент, который открывает Chrome или активирует голосового помощника, когда пользователь хлопает в ладоши два раза 👏
💬 Как это работает:
• Слушает микрофон через pyaudio
• Реагирует на два быстрых хлопка подряд
• Открывает браузер или помощника
Возможности зависят только от фантазии:
• Включай музыку или YouTube по хлопку
• Открывай рабочий дашборд при запуске ПК
• Управляй умным домом — включай свет или открывай дверь хлопком
Чтобы понять, как "выглядит" хлопок в аудиосигнале, разработчик записал его и провёл преобразование Фурье. Оказалось, что основная энергия хлопка сосредоточена в диапазоне 1.4–1.8 кГц. Дальше был настроен полосовой фильтр, чтобы выделять только этот диапазон и отсекать шум.
После фильтрации система отслеживает пики в сигнале. Если зафиксировано три хлопка подряд с минимальным интервалом, автоматически запускается Chrome (или любая команда на ваш выбор).
Реализуется в реальном времени — просто и удобно для управления без рук!
▪ Github (https://github.com/Yutarop/two_claps_open)
@Python_Community_ru
💬 Как это работает:
• Слушает микрофон через pyaudio
• Реагирует на два быстрых хлопка подряд
• Открывает браузер или помощника
Возможности зависят только от фантазии:
• Включай музыку или YouTube по хлопку
• Открывай рабочий дашборд при запуске ПК
• Управляй умным домом — включай свет или открывай дверь хлопком
Чтобы понять, как "выглядит" хлопок в аудиосигнале, разработчик записал его и провёл преобразование Фурье. Оказалось, что основная энергия хлопка сосредоточена в диапазоне 1.4–1.8 кГц. Дальше был настроен полосовой фильтр, чтобы выделять только этот диапазон и отсекать шум.
После фильтрации система отслеживает пики в сигнале. Если зафиксировано три хлопка подряд с минимальным интервалом, автоматически запускается Chrome (или любая команда на ваш выбор).
Реализуется в реальном времени — просто и удобно для управления без рук!
▪ Github (https://github.com/Yutarop/two_claps_open)
@Python_Community_ru
GitHub
GitHub - Yutarop/two_claps_open: Open Chrome (or any file/app) by just clapping twice
Open Chrome (or any file/app) by just clapping twice - Yutarop/two_claps_open
Автоматизируйте ML-эксперименты с GitLab CI/CD и CML
📅 17 июня в 20:00 мск — бесплатный вебинар с Николаем Осиповым
Хотите, чтобы эксперименты запускались сами, метрики попадали в Merge Request, а модели легко воспроизводились?
На вебинаре:
— Интегрируем GitLab CI/CD в ML-процесс
— Используем CML для автоматической визуализации результатов
— Запускаем обучение моделей при каждом коммите
— Настраиваем работу в облаке и версионирование через Git
📌 Полезно для:
— Data Scientists, внедряющих MLOps
— ML-инженеров, автоматизирующих пайплайны
— Техлидов, выстраивающих эффективный ML-конвейер
🎯 Итог: настроите стабильную и воспроизводимую систему ML-разработки — без ручного запуска, с чистыми метриками и контролем версий.
Присоединяйтесь к бесплатному вебинару и получите скидку на большое обучение онлайн-курса «MLOps».
👉 Регистрируйтесь по ссылке и начните выводить ML на прод https://clck.ru/3Ma8c7
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
📅 17 июня в 20:00 мск — бесплатный вебинар с Николаем Осиповым
Хотите, чтобы эксперименты запускались сами, метрики попадали в Merge Request, а модели легко воспроизводились?
На вебинаре:
— Интегрируем GitLab CI/CD в ML-процесс
— Используем CML для автоматической визуализации результатов
— Запускаем обучение моделей при каждом коммите
— Настраиваем работу в облаке и версионирование через Git
📌 Полезно для:
— Data Scientists, внедряющих MLOps
— ML-инженеров, автоматизирующих пайплайны
— Техлидов, выстраивающих эффективный ML-конвейер
🎯 Итог: настроите стабильную и воспроизводимую систему ML-разработки — без ручного запуска, с чистыми метриками и контролем версий.
Присоединяйтесь к бесплатному вебинару и получите скидку на большое обучение онлайн-курса «MLOps».
👉 Регистрируйтесь по ссылке и начните выводить ML на прод https://clck.ru/3Ma8c7
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576